1
So sánh các mô hình sử dụng dữ liệu: Dải nhãn đánh dấu
EvoClass-AI003Lecture 10
00:00

So sánh các mô hình sử dụng dữ liệu: Dải nhãn đánh dấu

Thành công trong triển khai các mô hình học máy phụ thuộc một cách quyết định vào sự sẵn có, chất lượng và chi phí của dữ liệu đã được gán nhãn. Trong những môi trường mà việc đánh dấu dữ liệu bằng con người là tốn kém, không khả thi hoặc đòi hỏi chuyên môn cao, các mô hình tiêu chuẩn sẽ trở nên kém hiệu quả hoặc thất bại hoàn toàn. Chúng tôi giới thiệu dải nhãn đánh dấu, phân biệt ba phương pháp cốt lõi dựa trên cách chúng tận dụng thông tin: Học giám sát (SL), Học phi giám sát (UL), và Học bán giám sát (SSL).

1. Học giám sát (SL): Độ chính xác cao, chi phí cao

SL hoạt động trên các tập dữ liệu mà mỗi đầu vào $X$ đều được ghép cụ thể với một nhãn chân lý đã biết $Y$. Mặc dù phương pháp này thường đạt độ chính xác dự đoán cao nhất cho các nhiệm vụ phân loại hoặc hồi quy, nhưng sự phụ thuộc vào việc đánh dấu dày đặc và chất lượng cao lại rất tốn kém về nguồn lực. Hiệu suất giảm mạnh nếu số lượng ví dụ có nhãn ít ỏi, khiến mô hình này dễ bị gián đoạn và thường không bền vững về mặt kinh tế đối với các tập dữ liệu lớn và đang thay đổi liên tục.

2. Học phi giám sát (UL): Phát hiện cấu trúc tiềm ẩn

UL chỉ hoạt động trên dữ liệu chưa được gán nhãn, $D = \{X_1, X_2, ..., X_n\}$. Mục tiêu của nó là suy luận ra các cấu trúc nội tại, phân bố xác suất nền tảng, mật độ hay các biểu diễn ý nghĩa nằm trong đa tạp dữ liệu. Các ứng dụng chính bao gồm nhóm dữ liệu (clustering), học đa tạp (manifold learning) và học biểu diễn (representation learning). UL cực kỳ hiệu quả trong xử lý tiền và trích xuất đặc trưng, cung cấp những hiểu biết quý giá mà không phụ thuộc vào đầu vào từ con người bên ngoài.

Question 1
Which learning paradigm is designed specifically to mitigate high reliance on expensive human data annotation by utilizing abundant unlabeled data?
Supervised Learning
Unsupervised Learning
Semi-Supervised Learning
Reinforcement Learning
Question 2
If a model's primary task is dimensionality reduction (e.g., finding the principal components) or clustering, which paradigm is universally employed?
Supervised Learning
Semi-Supervised Learning
Unsupervised Learning
Transfer Learning
Challenge: Defining the SSL Objective
Conceptualizing the Combined Loss Function
Unlike SL, which optimizes solely based on labeled fidelity, SSL requires a balanced optimization strategy. The total loss must capture prediction accuracy on the labeled set while enforcing consistency (e.g., smoothness or low density separation) across the unlabeled set.

Given: $D_L$: Labeled Data. $D_U$: Unlabeled Data. $\mathcal{L}_{SL}$: Supervised Loss function. $\mathcal{L}_{Consistency}$: Loss enforcing prediction smoothness on $D_U$.
Step 1
Write the general form of the total optimization objective $\mathcal{L}_{SSL}$, incorporating a weighting coefficient $\lambda$ for the unlabeled consistency component.
Solution:
The conceptual form of the total SSL loss is a weighted sum of the two components: $\mathcal{L}_{SSL} = \mathcal{L}_{SL}(D_L) + \lambda \cdot \mathcal{L}_{Consistency}(D_U)$. The scalar $\lambda$ controls the trade-off between label fidelity and structure reliance.